有损压缩和聚类的核心是学习代表的忠诚度和规模之间的权衡。我们的目标是绘制并研究量化此权衡的帕累托前沿。我们关注确定性信息瓶颈(DIB)目标在硬聚类空间上的优化。为此,我们介绍了原始的DIB问题,当优化在离散搜索空间上时,我们显示出比以前研究的拉格朗日放松的最丰富的领域。我们提出了一种算法,用于绘制原始DIB权衡的Pareto前沿,该算法也适用于其他两种目标聚类问题。我们研究了帕累托边境的一般特性,并提供了总体上对数稀疏性的分析和数值证据。我们提供的证据表明,尽管有超过指数的搜索空间,但我们的算法具有多项式缩放,此外,我们提出了对算法的修改,该算法可以在预期采样噪声显着的情况下使用。最后,我们使用算法来绘制三个不同任务的DIB前沿:压缩英语字母,从自然图像中提取信息性的颜色类别,并压缩了一个以群体理论为灵感的数据集,揭示了Frontier的有趣特征,并演示了如何展示的结构。边界可用于模型选择,重点是先前由凸船斗篷隐藏的点。
translated by 谷歌翻译
This paper presents a state-of-the-art optimal controller for quadruped locomotion. The robot dynamics is represented using a single rigid body (SRB) model. A linear time-varying model predictive controller (LTV MPC) is proposed by using linearization schemes. Simulation results show that the LTV MPC can execute various gaits, such as trot and crawl, and is capable of tracking desired reference trajectories even under unknown external disturbances. The LTV MPC is implemented as a quadratic program using qpOASES through the CasADi interface at 50 Hz. The proposed MPC can reach up to 1 m/s top speed with an acceleration of 0.5 m/s2 executing a trot gait. The implementation is available at https:// github.com/AndrewZheng-1011/Quad_ConvexMPC
translated by 谷歌翻译
In this work, we explore combining automatic hyperparameter tuning and optimization for federated learning (FL) in an online, one-shot procedure. We apply a principled approach on a method for adaptive client learning rate, number of local steps, and batch size. In our federated learning applications, our primary motivations are minimizing communication budget as well as local computational resources in the training pipeline. Conventionally, hyperparameter tuning methods involve at least some degree of trial-and-error, which is known to be sample inefficient. In order to address our motivations, we propose FATHOM (Federated AuTomatic Hyperparameter OptiMization) as a one-shot online procedure. We investigate the challenges and solutions of deriving analytical gradients with respect to the hyperparameters of interest. Our approach is inspired by the fact that, with the exception of local data, we have full knowledge of all components involved in our training process, and this fact can be exploited in our algorithm impactfully. We show that FATHOM is more communication efficient than Federated Averaging (FedAvg) with optimized, static valued hyperparameters, and is also more computationally efficient overall. As a communication efficient, one-shot online procedure, FATHOM solves the bottleneck of costly communication and limited local computation, by eliminating a potentially wasteful tuning process, and by optimizing the hyperparamters adaptively throughout the training procedure without trial-and-error. We show our numerical results through extensive empirical experiments with the Federated EMNIST-62 (FEMNIST) and Federated Stack Overflow (FSO) datasets, using FedJAX as our baseline framework.
translated by 谷歌翻译
非参考语音质量模型对于越来越多的应用程序很重要。 VoiceMos 2022挑战提供了一个带有主观标签的合成语音转换和文本到语音样本的数据集。这项研究着眼于在元数据的主观语音质量和数据集的分布不平衡的主观评级中可以解释的差异。使用WAV2VEC 2.0构建语音质量模型,具有其他元数据功能,其中包括评估者组和系统标识符,并获得了竞争性指标,包括Spearman等级相关系数(SRCC)为0.934,MSE为0.088,在系统级别和0.877和0.198和0.198和0.198的MSE和0.198话语级别。使用数据限制或盲目的数据和元数据进一步改善了指标。元数据分析表明,由于验证和测试数据集中每个系统使用的话语数量的广泛变化,系统级指标并不代表模型的系统级预测。我们得出的结论是,通常,条件在测试集中应具有足够的话语以绑定样本平均误差,并且在系统之间的话语计数中相对平衡,否则话语级别的指标可能更可靠和可解释。
translated by 谷歌翻译
台湾对全球碎片流的敏感性和死亡人数最高。台湾现有的碎屑流警告系统,该系统使用降雨量的时间加权度量,当该措施超过预定义的阈值时,会导致警报。但是,该系统会产生许多错误的警报,并错过了实际碎屑流的很大一部分。为了改善该系统,我们实施了五个机器学习模型,以输入历史降雨数据并预测是否会在选定的时间内发生碎屑流。我们发现,随机的森林模型在五个模型中表现最好,并优于台湾现有系统。此外,我们确定了与碎屑流的发生密切相关的降雨轨迹,并探索了缺失碎屑流的风险与频繁的虚假警报之间的权衡。这些结果表明,仅在小时降雨数据中训练的机器学习模型的潜力可以挽救生命,同时减少虚假警报。
translated by 谷歌翻译
基于领域的模型计划者通常通过通过放松或抽象的符号世界模型来构建搜索启发式方法来得出他们的普遍性。我们说明抽象解释如何作为这些基于抽象的启发式方法的统一框架,将启发式搜索的范围扩展到更丰富的世界模型,这些模型利用更复杂的数据类型和功能(例如集合,几何形状),甚至具有不确定性和不确定性和不确定性和模型概率效应。这些启发式方法也可以与学习相结合,从而使代理可以通过抽象衍生的信息在新颖的世界模型中开始计划,这些信息随后通过经验来完善。这表明抽象的解释可以在构建通用推理系统中起关键作用。
translated by 谷歌翻译
为了促进开发新模型以弥合机器和人类社会情报之间的差距,最近提议的婴儿直觉基准(Arxiv:2102.11938)提供了一系列任务,旨在评估代理商的目标和行动,即使是年轻的婴儿也表现出的表现,。在这里,我们根据层次的贝叶斯心理理论(HBTOM)提出了该基准的原则性贝叶斯解决方案。通过在代理目标和处置上包括层次的先验,对我们的HBTOM模型的推断几乎可以学习代理的效率和偏好,然后可以将其用于常识性的合理性判断,以判断有关后续代理行为。这种方法在大多数基准任务上实现了几乎完美的准确性,在产生可解释的人类的推论的同时,超过了深度学习和模仿学习基准,证明了结构化贝叶斯人的人类社会认知模型的优势。
translated by 谷歌翻译
最近,手语研究人员已转向手语解释的电视广播,包括(i)连续签名的视频和(ii)与音频内容相对应的字幕,作为易于使用和大规模的培训数据来源。此类数据可用性的一个关键挑战是缺乏标志注释。利用这种弱对准数据的先前工作仅发现字幕中的关键字与单个符号之间的稀疏对应关系。在这项工作中,我们提出了一个简单,可扩展的框架,以极大地增加自动注释的密度。我们的贡献如下:(1)我们通过使用同义词和字幕签名对齐来显着改善先前的注释方法; (2)我们将标志识别模型中的伪标签的价值作为标志发现的方式; (3)我们提出了一种新的方法,以增加基于内域示例的已知和未知类别的注释; (4)在Bobsl BSL手语语料库上,我们将自信自动注释的数量从670K增加到5M。我们将这些注释公开用于支持手语研究社区。
translated by 谷歌翻译
抽象推理是智能系统的关键能力。大型语言模型在抽象推理任务上实现了高度的性能,但表现出许多缺陷。但是,人类的抽象推理也是不完美的,并且取决于我们对推理问题内容的知识和信念。例如,人类对在日常情况下基于逻辑规则的逻辑规则比关于抽象属性的任意规则更可靠地理解。语言模型的培训经验类似地赋予了他们先前的期望,这些期望反映了人类的知识和信念。因此,我们假设语言模型会显示出类似人类的内容对抽象推理问题的影响。我们在三个逻辑推理任务中探讨了这一假设:自然语言推论,判断三段论的逻辑有效性和ison选择任务(Wason,1968)。我们发现,最新的大语言模型(具有7或700亿个参数; Hoffman等,2022)反映了这些任务中人类在人类中观察到的许多相同模式 - 像人类一样,模型对可信情况的理由更有效地理由不现实或抽象的。我们的发现对理解这些认知效应以及有助于语言模型表现的因素具有影响。
translated by 谷歌翻译
监督的学习任务,例如GigaiPixel全幻灯片图像(WSIS)等癌症存活预测是计算病理学中的关键挑战,需要对肿瘤微环境的复杂特征进行建模。这些学习任务通常通过不明确捕获肿瘤内异质性的深层多企业学习(MIL)模型来解决。我们开发了一种新颖的差异池体系结构,使MIL模型能够将肿瘤内异质性纳入其预测中。说明了基于代表性补丁的两个可解释性工具,以探测这些模型捕获的生物学信号。一项针对癌症基因组图集的4,479吉普像素WSI的实证研究表明,在MIL框架上增加方差汇总可改善五种癌症类型的生存预测性能。
translated by 谷歌翻译